28 países acuerdan un desarrollo seguro y responsable de la IA de frontera en la histórica Declaración de Bletchley

Las naciones líderes en IA, convocadas por primera vez por el Reino Unido e incluyendo a Estados Unidos y China, junto con la Unión Europea, alcanzaron hoy (miércoles 1 de noviembre de 2023) un primer acuerdo mundial en Bletchley Park que establece un entendimiento compartido de las oportunidades. y los riesgos que plantea la IA de frontera y la necesidad de que los gobiernos trabajen juntos para enfrentar los desafíos más importantes.

En la Declaración de Bletchley sobre la seguridad de la IA, 28 países de todo el mundo, incluidos África, Oriente Medio y Asia, así como la UE, aceptan la urgente necesidad de comprender y gestionar colectivamente los riesgos potenciales a través de un nuevo esfuerzo global conjunto para garantizar la IA. se desarrolla y despliega de forma segura y responsable en beneficio de la comunidad global.

La Declaración cumple los objetivos clave de la cumbre al establecer un acuerdo y una responsabilidad compartidos sobre los riesgos, las oportunidades y un proceso de avance para la colaboración internacional en la investigación y la seguridad de la IA de frontera, particularmente a través de una mayor colaboración científica. Las conversaciones de hoy, con las principales empresas de IA de vanguardia y expertos del mundo académico y de la sociedad civil, verán más debates sobre cómo comprender los riesgos de la IA de frontera y mejorar la seguridad de la IA de frontera.

Los países coincidieron en que pueden surgir riesgos sustanciales debido a un posible uso indebido intencional o problemas no intencionados de control de la IA fronteriza, con especial preocupación causada por los riesgos de ciberseguridad, biotecnología y desinformación. La Declaración establece un acuerdo en que existe “potencial de daño grave, incluso catastrófico, ya sea deliberado o no, derivado de las capacidades más significativas de estos modelos de IA”. Los países también notaron los riesgos más allá de la IA fronteriza, incluidos el sesgo y la privacidad.

Al reconocer la necesidad de profundizar la comprensión de los riesgos y capacidades que no se comprenden completamente, los asistentes también acordaron trabajar juntos para apoyar una red de investigación científica sobre la seguridad de frontera en IA. Esto se basa en el anuncio del Primer Ministro del Reino Unido la semana pasada de que el Reino Unido establecerá el primer Instituto de Seguridad de IA del mundo y complementará los esfuerzos internacionales existentes, incluidos los del G7, la OCDE, el Consejo de Europa, las Naciones Unidas y la Asociación Global sobre IA. Esto garantizará que se pueda utilizar la mejor investigación científica disponible para crear una base de evidencia para gestionar los riesgos y al mismo tiempo desbloquear los beneficios de la tecnología, incluso a través del Instituto de Seguridad de la IA del Reino Unido, que analizará la gama de riesgos que plantea la IA.

La Declaración detalla que los riesgos “se abordan mejor mediante la cooperación internacional”. Como parte del proceso de avance para la colaboración internacional en materia de seguridad fronteriza de la IA, la República de Corea acordó ser coanfitrión de una mini cumbre virtual sobre IA en los próximos 6 meses. Francia será entonces la sede de la próxima Cumbre presencial dentro de un año. Más detalles sobre estos eventos se confirmarán a su debido tiempo.

Esto garantiza un legado duradero de la Cumbre y una acción internacional continua para abordar los riesgos de la IA, incluida la información sobre políticas nacionales e internacionales basadas en riesgos en estos países.

La Declaración, que se basa en el anuncio de la semana pasada sobre los procesos emergentes del Reino Unido para la seguridad de la IA, también reconoce que aquellos que desarrollan estas capacidades fronterizas de IA inusualmente poderosas y potencialmente peligrosas, tienen una responsabilidad particular de garantizar la seguridad de estos sistemas, incluso mediante la implementación de sistemas para probar ellos y otras medidas apropiadas.

Su Majestad el Rey señaló que la IA es uno de los “mayores avances tecnológicos en la historia del esfuerzo humano” y elogió el enorme potencial de la tecnología para transformar las vidas de los ciudadanos de todo el mundo a través de mejores tratamientos para enfermedades como el cáncer y las enfermedades cardíacas. El Rey también habló del “claro imperativo de garantizar que esta tecnología en rápida evolución siga siendo segura” y de la necesidad de “coordinación y colaboración internacionales”. El discurso del Rey concluyó con un agradecimiento por el papel vital que desempeñarán los asistentes durante los próximos dos días, sentando las bases para un “consenso duradero” sobre la seguridad de la IA para consolidar su lugar como fuerza para el bien.

A continuación proporcionamos un resumen de la declaración:

La “Declaración de Bletchley” emitida por países participantes en la Cumbre de Seguridad de la Inteligencia Artificial (IA) tuvo lugar del 1 al 2 de noviembre de 2023. Esta declaración destaca la importancia de desarrollar y utilizar la IA de manera segura, centrada en el ser humano, confiable y responsable. Los países participantes reconocen las oportunidades y los desafíos asociados con la IA y se comprometen a cooperar internacionalmente para abordar los riesgos y maximizar los beneficios de esta tecnología.

La declaración enfatiza que la IA ya se utiliza en diversos aspectos de la vida diaria, como vivienda, empleo, transporte, educación, salud, accesibilidad y justicia, y su uso seguirá aumentando. Por lo tanto, los países participantes consideran que es fundamental promover el desarrollo seguro de la IA y utilizar sus oportunidades transformadoras para el bienestar de todos, de manera inclusiva y en línea con los Objetivos de Desarrollo Sostenible de las Naciones Unidas.

Además, se reconoce que la IA conlleva riesgos significativos, como la protección de los derechos humanos, la transparencia, la explicabilidad, la equidad, la responsabilidad, la regulación, la seguridad, la supervisión humana adecuada, la ética, la mitigación de sesgos, la privacidad y la protección de datos. También se señala el potencial de riesgos imprevistos derivados de la capacidad de manipular contenido o generar contenido engañoso. Los países participantes consideran que es urgente abordar estos temas y colaborar internacionalmente para examinar y mitigar los impactos potenciales de los sistemas de IA.

La declaración destaca los riesgos específicos relacionados con la “IA frontera”, que se refiere a modelos de IA altamente capaces de propósito general, así como a IA estrecha específica que podría causar daño, y que superan las capacidades de los modelos actuales más avanzados. Se reconoce que existe la posibilidad de daños graves, incluso catastróficos, derivados de las capacidades más significativas de estos modelos de IA. Dado el rápido y incierto ritmo de cambio de la IA, se enfatiza la necesidad de comprender y abordar urgentemente estos riesgos.

Los países participantes se comprometen a trabajar juntos de manera inclusiva para garantizar una IA centrada en el ser humano, confiable y responsable, y abordar una amplia gama de riesgos a través de foros internacionales existentes y otras iniciativas relevantes. También se enfatiza la importancia de una gobernanza y regulación proporcional que maximice los beneficios de la IA y tenga en cuenta los riesgos asociados, así como la cooperación en enfoques como principios comunes y códigos de conducta.

Se reconoce que todos los actores, incluidos los países, las empresas, la sociedad civil y la academia, tienen un papel que desempeñar en la seguridad de la IA. Se destaca la importancia de la colaboración internacional inclusiva y el compromiso de involucrar a una amplia gama de socios, así como de abordar la brecha digital y fortalecer la capacidad de construcción de IA en los países en desarrollo.

La declaración concluye resaltando la importancia de un diálogo global inclusivo sobre la IA, la continuación de la investigación sobre la seguridad de la IA frontera y el compromiso de reunirse nuevamente en el año 2024. Además, se proporciona una lista de los países representados en la cumbre de seguridad de la IA.

En el contexto de nuestra cooperación, y para informar la acción a nivel nacional e internacional, nuestra agenda para abordar el riesgo fronterizo de la IA se centrará en:

  • Identificar los riesgos de seguridad de la IA de interés compartido, construir una comprensión compartida científica y basada en evidencia de estos riesgos, y mantener esa comprensión a medida que las capacidades continúan aumentando, en el contexto de un enfoque global más amplio para comprender el impacto de la IA en nuestras sociedades.
  • Construir políticas respectivas basadas en riesgos en nuestros países para garantizar la seguridad a la luz de dichos riesgos, colaborando según corresponda y reconociendo que nuestros enfoques pueden diferir según las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades e investigaciones científicas relevantes del sector público.

Con información del Gobierno de Reino Unido.

+ publicaciones

Artículo redactado con asistencia de diversas inteligencias artificiales generativas con supervisión humana (redacción AD).

Entradas relacionadas

Más
Please enter CoinGecko Free Api Key to get this plugin works.
error: Contenido protegido